教程4:使用现有模型进行训练和测试

您所在的位置:网站首页 python 多gpu 教程4:使用现有模型进行训练和测试

教程4:使用现有模型进行训练和测试

2023-04-08 20:12| 来源: 网络整理| 查看: 265

教程4:使用现有模型进行训练和测试¶

MMSegmentation 支持在多种设备上训练和测试模型。如下文,具体方式分别为单GPU、分布式以及计算集群的训练和测试。通过本教程,您将知晓如何用 MMSegmentation 提供的脚本进行训练和测试。

在单GPU上训练和测试¶ 在单GPU上训练¶

tools/train.py 文件提供了在单GPU上部署训练任务的方法。

基础用法如下:

python tools/train.py ${配置文件} [可选参数]

--work-dir ${工作路径}: 重新指定工作路径

--amp: 使用自动混合精度计算

--resume: 从工作路径中保存的最新检查点文件(checkpoint)恢复训练

--cfg-options ${需更覆盖的配置}: 覆盖已载入的配置中的部分设置,并且 以 xxx=yyy 格式的键值对 将被合并到配置文件中。 比如: ‘–cfg-option model.encoder.in_channels=6’, 更多细节请看指导。

下面是对于多GPU测试的可选参数:

--launcher: 执行器的启动方式。允许选择的参数值有 none, pytorch, slurm, mpi。特别的,如果设置为none,测试将非分布式模式下进行。

--local_rank: 分布式中进程的序号。如果没有指定,默认设置为0。

注意: 命令行参数 --resume 和在配置文件中的参数 load_from 的不同之处:

--resume 只决定是否继续使用工作路径中最新的检查点,它常常用于恢复被意外打断的训练。

load_from 会明确指定被载入的检查点文件,且训练迭代器将从0开始,通常用于微调模型。

如果您希望从指定的检查点上恢复训练您可以使用:

python tools/train.py ${配置文件} --resume --cfg-options load_from=${检查点}

在 CPU 上训练: 如果机器没有 GPU,则在 CPU 上训练的过程是与单GPU训练一致的。如果机器有 GPU 但是不希望使用它们,我们只需要在训练前通过以下方式关闭 GPU 训练功能。

export CUDA_VISIBLE_DEVICES=-1

然后运行上方脚本。

在单GPU上测试¶

tools/test.py 文件提供了在单 GPU 上启动测试任务的方法。

基础用法如下:

python tools/test.py ${配置文件} ${模型权重文件} [可选参数]

这个工具有几个可选参数,包括:

--work-dir: 如果指定了路径,结果会保存在该路径下。如果没有指定则会保存在 work_dirs/{配置文件名} 路径下.

--show: 当 --show-dir 没有指定时,可以使用该参数,在程序运行过程中显示预测结果。

--show-dir: 绘制了分割掩膜图片的存储文件夹。如果指定了该参数,则可视化的分割掩膜将被保存到 work_dir/timestamp/{指定路径}.

--wait-time: 多次可视化结果的时间间隔。当 --show 为激活状态时发挥作用。默认为2。

--cfg-options: 如果被具体指定,以 xxx=yyy 形式的键值对将被合并入配置文件中。

在CPU上测试: 如果机器没有GPU,则在CPU上训练的过程是与单GPU训练一致的。如果机器有GPU,但是不希望使用它们,我们只需要在训练前通过以下方式关闭GPUs训练功能。

export CUDA_VISIBLE_DEVICES=-1

然后运行上方脚本。

多GPU、多机器上训练和测试¶ 在多GPU上训练¶

OpenMMLab2.0 通过 MMDistributedDataParallel实现 分布式 训练。

tools/dist_train.sh 文件提供了在在多GPU上部署训练任务的方法。

基础用法如下:

sh tools/dist_train.sh ${配置文件} ${GPU数量} [可选参数]

可选参数与上方相同并且还增加了可以指定gpu数量的参数。

示例:

# 模型训练的检查点和日志保存在这个路径下: WORK_DIR=work_dirs/pspnet_r50-d8_4xb4-80k_ade20k-512x512/ # 如果工作路径没有被设定,它将会被自动生成。 sh tools/dist_train.sh configs/pspnet/pspnet_r50-d8_4xb4-80k_ade20k-512x512.py 8 --work-dir work_dirs/pspnet_r50-d8_4xb4-80k_ade20k-512x512

注意: 在训练过程中,检查点和日志保存在work_dirs/下的配置文件的相同文件夹结构下。 不推荐自定义的工作路径,因为评估脚本依赖于源自配置文件名的路径。如果您希望将权重保存在其他地方,请用符号链接,例如:

ln -s ${您的工作路径} ${MMSEG 路径}/work_dirs 在多GPU上测试¶

tools/dist_test.sh 文件提供了在多GPU上启动测试任务的方法。

基础用法如下:

sh tools/dist_test.sh ${配置文件} ${检查点文件} ${GPU数量} [可选参数]

可选参数与上方相同并且增加了可以指定 gpu 数量的参数。

示例:

./tools/dist_test.sh configs/pspnet/pspnet_r50-d8_4xb2-40k_cityscapes-512x1024.py \ checkpoints/pspnet_r50-d8_512x1024_40k_cityscapes_20200605_003338-2966598c.pth 4 在单台机器上启动多个任务¶

如果您在单个机器上运行多个任务,比如:在8卡GPU的单个机器上执行2个各需4卡GPU的训练任务,您需要为每个任务具体指定不同端口(默认29500),从而避免通讯冲突。否则,会有报错信息——RuntimeError: Address already in use(运行错误:地址被使用)。

如果您使用 dist_train.sh 来启动训练任务,您可以通过环境变量 PORT 设置端口。

CUDA_VISIBLE_DEVICES=0,1,2,3 PORT=29500 sh tools/dist_train.sh ${配置文件} 4 CUDA_VISIBLE_DEVICES=4,5,6,7 PORT=29501 sh tools/dist_train.sh ${配置文件} 4 在多台机器上训练¶

MMSegmentation 的分布式训练依赖 torch.distributed。 因此, 可以通过 PyTorch 的 运行工具 launch utility 来进行分布式训练。

如果您启动的多台机器简单地通过以太网连接,您可以直接运行下方命令:

在第一个机器上:

NNODES=2 NODE_RANK=0 PORT=${主节点端口} MASTER_ADDR=${主节点地址} sh tools/dist_train.sh ${配置文件} ${GPUS}

在第二个机器上:

NNODES=2 NODE_RANK=1 PORT=${主节点端口} MASTER_ADDR=${主节点地址} sh tools/dist_train.sh ${配置文件} ${GPUS}

通常,如果您没有使用像无限带宽一类的高速网络,这个会过程比较慢。

通过 Slurm 管理任务¶

Slurm 是一个很好的计算集群作业调度系统。

通过 Slurm 在集群上训练¶

在一个由Slurm管理的集群上,您可以使用slurm_train.sh来启动训练任务。它同时支持单节点和多节点的训练。

基础用法如下:

[GPUS=${GPUS}] sh tools/slurm_train.sh ${分区} ${任务名} ${配置文件} [可选参数]

下方是一个通过名为 dev 的 Slurm 分区,调用4个 GPU 来训练 PSPNet,并设置工作路径为共享文件系统。

GPUS=4 sh tools/slurm_train.sh dev pspnet configs/pspnet/pspnet_r50-d8_512x1024_40k_cityscapes.py --work-dir work_dir/pspnet

您可以检查 源码 来查看全部的参数和环境变量。

通过 Slurm 在集群上测试¶

与训练任务相同, MMSegmentation 提供 slurm_test.sh 文件来启动测试任务。

基础用法如下:

[GPUS=${GPUS}] sh tools/slurm_test.sh ${分区} ${任务名} ${配置文件} ${检查点文件} [可选参数]

您可以通过 源码 来查看全部的参数和环境变量。

注意: 使用 Slurm 时,需要设置端口,可从以下方式中选取一种。

我们更推荐的通过--cfg-options设置端口,因为这不会改变原始配置:

GPUS=4 GPUS_PER_NODE=4 sh tools/slurm_train.sh ${分区} ${任务名} config1.py ${工作路径} --cfg-options env_cfg.dist_cfg.port=29500 GPUS=4 GPUS_PER_NODE=4 sh tools/slurm_train.sh ${任务名} ${工作路径} config2.py ${工作路径} --cfg-options env_cfg.dist_cfg.port=29501

通过修改配置文件设置不同的通讯端口:

在 config1.py中:

enf_cfg = dict(dist_cfg=dict(backend='nccl', port=29500))

在 config2.py中:

enf_cfg = dict(dist_cfg=dict(backend='nccl', port=29501))

然后您可以通过 config1.py 和 config2.py 同时启动两个任务:

CUDA_VISIBLE_DEVICES=0,1,2,3 GPUS=4 sh tools/slurm_train.sh ${分区} ${任务名} config1.py ${工作路径} CUDA_VISIBLE_DEVICES=4,5,6,7 GPUS=4 sh tools/slurm_train.sh ${分区} ${任务名} config2.py ${工作路径}

在命令行中通过环境变量 MASTER_PORT 设置端口 :

CUDA_VISIBLE_DEVICES=0,1,2,3 GPUS=4 MASTER_PORT=29500 sh tools/slurm_train.sh ${分区} ${任务名} config1.py ${工作路径} CUDA_VISIBLE_DEVICES=4,5,6,7 GPUS=4 MASTER_PORT=29501 sh tools/slurm_train.sh ${分区} ${任务名} config2.py ${工作路径} 测试并保存分割结果¶ 基础使用¶

当需要保存测试输出的分割结果,用 --out 指定分割结果输出路径

python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} --out ${OUTPUT_DIR}

以保存模型 fcn_r50-d8_4xb4-80k_ade20k-512x512 在 ADE20K 验证数据集上的结果为例:

python tools/test.py configs/fcn/fcn_r50-d8_4xb4-80k_ade20k-512x512.py ckpt/fcn_r50-d8_512x512_80k_ade20k_20200614_144016-f8ac5082.pth --out work_dirs/format_results

或者通过配置文件定义 output_dir。例如在 configs/fcn/fcn_r50-d8_4xb4-80k_ade20k-512x512.py 添加 test_evaluator 定义:

test_evaluator = dict(type='IoUMetric', iou_metrics=['mIoU'], output_dir='work_dirs/format_results')

然后执行相同功能的命令不需要再使用 --out:

python tools/test.py configs/fcn/fcn_r50-d8_4xb4-80k_ade20k-512x512.py ckpt/fcn_r50-d8_512x512_80k_ade20k_20200614_144016-f8ac5082.pth

当测试的数据集没有提供标注,评测时没有真值可以参与计算,因此需要设置 format_only=True, 同时需要修改 test_dataloader,由于没有标注,我们需要在数据增强变换中删掉 dict(type='LoadAnnotations'),以下是一个配置示例:

test_evaluator = dict( type='IoUMetric', iou_metrics=['mIoU'], format_only=True, output_dir='work_dirs/format_results') test_dataloader = dict( batch_size=1, num_workers=4, persistent_workers=True, sampler=dict(type='DefaultSampler', shuffle=False), dataset=dict( type = 'ADE20KDataset' data_root='data/ade/release_test', data_prefix=dict(img_path='testing'), # 测试数据变换中没有加载标注 pipeline=[ dict(type='LoadImageFromFile'), dict(type='Resize', scale=(2048, 512), keep_ratio=True), dict(type='PackSegInputs') ]))

然后执行测试命令:

python tools/test.py configs/fcn/fcn_r50-d8_4xb4-80k_ade20k-512x512.py ckpt/fcn_r50-d8_512x512_80k_ade20k_20200614_144016-f8ac5082.pth 测试 Cityscapes 数据集并保存输出分割结果¶

推荐使用 CityscapesMetric 来保存模型在 Cityscapes 数据集上的测试结果,以下是一个配置示例:

test_evaluator = dict( type='CityscapesMetric', format_only=True, keep_results=True, output_dir='work_dirs/format_results') test_dataloader = dict( batch_size=1, num_workers=4, persistent_workers=True, sampler=dict(type='DefaultSampler', shuffle=False), dataset=dict( type='CityscapesDataset', data_root='data/cityscapes/', data_prefix=dict(img_path='leftImg8bit/test'), pipeline=[ dict(type='LoadImageFromFile'), dict(type='Resize', scale=(2048, 1024), keep_ratio=True), dict(type='PackSegInputs') ]))

然后执行相同的命令,例如:

python tools/test.py configs/fcn/fcn_r18-d8_4xb2-80k_cityscapes-512x1024.py ckpt/fcn_r18-d8_512x1024_80k_cityscapes_20201225_021327-6c50f8b4.pth


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3